Skip to content
  • 0 Votes
    19 Posts
    22 Views
    B
    Odpowiedź na to pytanie jest niejednoznaczna, ponieważ nie ma informacji o tym, jaki wzór jest używany do obliczania accuracy modelu. W kontekście kursu zostało wspomniane, że accuracy jest liczone jako stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych, ale nie został podany konkretny wzór. Jednak w ogólnych założeniach, wzór na accuracy modelu może być przedstawiony następująco: Accuracy = (liczba poprawnie zaklasyfikowanych przykładów testowych) / (liczba wszystkich przykładów testowych) Przykładowo, jeśli mamy 100 przykładów testowych i model poprawnie zaklasyfikował 88 z nich, accuracy modelu wyniosłaby: Accuracy = 88 / 100 = 0,88 Warto zauważyć, że accuracy jest jedną z najważniejszych metryk oceny modelu, ale nie jest jedyną. Inne metryki, takie jak precyzja, czułość i F-score, również są ważne i powinny być brane pod uwagę wraz z accuracy.
  • 0 Votes
    7 Posts
    6 Views
    B
    Tak, istnieją inne metryki, które mogą być stosowane w modelach uczenia maszynowego. W treści opisano cztery metryki: dokładność (accuracy), precyzja (precision), czułość (recall) i F-score. Dodatkowo, w treści wspomniano, że metryki te są obliczane na podstawie macierzy pomyłek. Nie ma informacji o innych metrykach, które mogłyby być stosowane w modelach uczenia maszynowego. Jednak w treści opisano, że F-score jest uniwersalną metryką, która może być stosowana w sytuacjach, w których potrzebujemy kompromisu między precyzją a czułością modelu.
  • 0 Votes
    17 Posts
    16 Views
    B
    Odpowiedź na to pytanie zależy od kontekstu, w którym jest ono zadawane. W opisanej treści nie ma bezpośredniego odniesienia do tego pytania, ale można odnieść się do omawianych wcześniej miar, takich jak F-score, precyzja i czułość. W ogólnym sensie, precyzja jest najważniejszą miarą, jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych. W takim przypadku, precyzja powinna być jak najwyższa. Z drugiej strony, czułość jest najważniejszą miarą w sytuacji, w której zależy nam, by wykryć jak najwięcej przykładów z jednej klasy. W takim przypadku, czułość powinna być jak najwyższa. F-score jest miarą, która łączy w sobie precyzję i czułość, i jest ona bardziej obiektywną miarą niż każda z nich osobno. W związku z tym, jeśli chodzi o F-score, lepiej jest mieć niższą liczbę błędnych pozytywnych wyników (FP) i błędnych negatywnych wyników (FN), ponieważ w ten sposób model będzie miał wyższą wartość F-score. W zależności od głównego celu modelu, powinniśmy zwracać szczególną uwagę na różne metryki. Jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych, powinniśmy zwracać szczególną uwagę na precyzję. Jeśli głównym celem modelu jest wykrycie jak największej liczby przykładów z jednej klasy, powinniśmy zwracać szczególną uwagę na czułość.
  • 0 Votes
    27 Posts
    46 Views
    B
    Czułość to miara zdolności modelu do rozpoznawania przykładów należących do klasy pozytywnej. Jest to miara, która określa, jak dobrze model rozpoznaje przykłady, które rzeczywiście należą do klasy pozytywnej. Czułość jest obliczana jako stosunek liczby przykładów, które zostały prawidłowo rozpoznane jako pozytywne (TP), do liczby wszystkich przykładów, które rzeczywiście należą do klasy pozytywnej (TP + FN). Na przykład, jeśli model rozpoznał 80 przykładów jako pozytywne i 20 z nich było poprawnie rozpoznanych, a w rzeczywistości 90 przykładów należało do klasy pozytywnej, to czułość modelu wynosi 80/90 = 0,89 lub 89%. Czułość jest ważnym wskaźnikiem jakości modelu, ale powinna być używana wraz z innymi wskaźnikami, takimi jak precyzja i F-score, aby uzyskać pełniejszą ocenę jakości modelu.
  • 0 Votes
    33 Posts
    46 Views
    B
    Nie, nie jest to dokładnie 5 wartości. W opisanym kontekście, omawiane są metryki, takie jak dokładność, precyzja, kompletność, zbalansowana dokładność i przewidywany wskaźnik stanu pozytywnego. Te metryki są używane do oceny wydajności modelu w kontekście Uczenia Maszynowego. Dokładność to ułamek instancji istotnych wśród wszystkich pobranych instancji, precyzja to ułamek instancji istotnych wśród pobranych instancji, kompletność to ułamek instancji istotnych, które zostały pobrane, zbalansowana dokładność to średnia z dokładnością i kompletnością, a przewidywany wskaźnik stanu pozytywnego to ułamek instancji istotnych wśród wszystkich pobranych instancji. Macierz pomyłek jest również omawiana w sekcji D1 i jest używana do obliczania tych metryk.
  • 0 Votes
    1 Posts
    5 Views
    No one has replied
  • 0 Votes
    25 Posts
    26 Views
    B
    Aby poprawić klasyfikowanie przez model niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8, należy dostarczyć modelowi dodatkowych danych, które mogą pomóc mu w rozróżnieniu tych dwóch cyfr. W naszym przypadku, model został wytrenowany na danych, które zawierają wyraźnie narysowane cyfry 6 i 8. Jednak w przypadku niewyraźnie narysowanej cyfry, model może mieć trudności z rozróżnieniem jej od innych cyfr. Aby poprawić klasyfikowanie przez model, można: Dodawać więcej danych do modelu, które zawierają niewyraźnie narysowane cyfry 6 i 8. To pozwoli modelowi nauczyć się rozróżniać te cyfry w różnych kontekstach. Ulepszyć model, aby był bardziej elastyczny i mógł radzić sobie z niewyraźnie narysowanymi cyframi. Zastosować techniki post-processing, które mogą pomóc modelowi poprawić swoje klasyfikowanie w przypadku niewyraźnie narysowanych cyfr. Warto zauważyć, że poprawienie klasyfikowania przez model niewyraźnie narysowanej cyfry wymaga dodatkowych danych i ulepszeń modelu.
  • 0 Votes
    29 Posts
    59 Views
    B
    Precyzja to ułamek instancji istotnych wśród pobranych instancji. Zapisane jako wzór: Precyzja = Liczba poprawnie pobranych instancji / Wszystkie pobrane instancje.
  • 0 Votes
    11 Posts
    9 Views
    B
    Precyzja (precision) jest obliczana jako stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytywne. W przykładzie z ilustracji, aby obliczyć precyzję, bierzemy liczbę prawidłowo wykrytych chorób (27) i dzielimy przez liczbę wszystkich osób sklasyfikowanych przez model jako chore (31). Otrzymujemy w zaokrągleniu 87%. W innym przykładzie, aby obliczyć precyzję modelu A, dzielimy liczbę poprawnie rozpoznanych przez model jedynek (przykłady prawdziwie pozytywne) przez liczbę wszystkich przykładów rozpoznanych przez model jako jedynki. Zwróc uwagę na opis osi tablicy pomyłek w GTM - przewidywania modelu są tutaj na osi poziomiej, a rzeczywisty rozkład klas na osi pionowej. W tym przypadku precyzja wynosi 100%, ponieważ żadna siódemka nie została błędnie przez model oceniona jako jedynka.
  • 0 Votes
    17 Posts
    16 Views
    B
    W kontekście uczenia maszynowego, "czułość" (ang. sensitivity) odnosi się do zdolności modelu do rozpoznawania i wykrywania małych zmian lub różnic w danych. Jest to ważne cecha modelu, zwłaszcza w przypadkach, gdy dane są zróżnicowane lub mają duże rozmiary. Czułość modelu może być określana jako zdolność modelu do: Rozpoznawania małych zmian w danych Wykrywania różnic w danych Określania prawdopodobieństwa wystąpienia określonego zjawiska lub zmiany w danych W praktyce, czułość modelu może być oceniana za pomocą różnych miar, takich jak: Wrażliwość (sensitivity) - określa zdolność modelu do rozpoznawania małych zmian w danych Specyficzność (specificity) - określa zdolność modelu do unikania fałszywych alarmów Precyzja (precision) - określa zdolność modelu do określania prawidłowych wyników Dobry model powinien mieć odpowiedni poziom czułości, aby być skuteczny w rozpoznawaniu i wykrywaniu zmian w danych.
  • 0 Votes
    17 Posts
    11 Views
    B
    Aby obliczyć czułość modelu, musimy wiedzieć, ile zdjęć było rzeczywiście kotami. W tym przypadku, jak wspomniałeś, łącznie było 30 zdjęć kotów (27 słusznie uznanych za koty + 3 błędnie uznanych za psy). Czułość (recall) jest definiowana jako stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości. W tym przypadku przykładami prawdziwie pozytywnymi są zdjęcia rzeczywiście kotów. Zatem, czułość modelu wynosi: Czułość = (liczba zdjęć rzeczywiście kotów) / (łączna liczba zdjęć kotów) = (30) / (30) = 1 Czułość modelu wynosi 1, co oznacza, że model sklasyfikował wszystkie 30 zdjęć kotów poprawnie.
  • 0 Votes
    5 Posts
    5 Views
    B
    Odpowiedź na pytanie kursanta: Tak, realistycznie nie jest to za mało, żeby dobrze wyćwiczyć model. W przykładzie modelu w rozdziale A3, model uczony jest na zbiorze danych zawierających po 120 zdjęć z każdej klasy. Jednak w poprzednim rozdziale A2, omówiliśmy problem, w którym model klasyfikował zdjęcie kaczki jako pies, ponieważ nie był w stanie rozróżnić pomiędzy klasami "pies" i "nie-pies". W takim przypadku model nie był w stanie wyćwiczyć się dobrze, ponieważ nie miał wystarczającej ilości danych. W tym przypadku, ilość danych 120 zdjęć z każdej klasy może być zbyt mała, aby model mógł wyćwiczyć się dobrze. W rzeczywistości, ilość danych powinna być znacznie większa, aby model mógł wyćwiczyć się dobrze. Jednak, nie ma informacji w kontekście, która mówiłaby o tym, jaką powinna być rzeczywista ilość danych. Jednak, ogólnie rzecz biorąc, ilość danych powinna być tak duża, aby model mógł wyćwiczyć się dobrze i nie popełniał błędów. W zależności od problemu i danych, ilość danych może być różna, ale ogólnie rzecz biorąc, powinna być znacznie większa niż 120 zdjęć z każdej klasy.
  • 0 Votes
    9 Posts
    8 Views
    B
    Aby obliczyć precyzję, musimy wiedzieć, ile przykładów zostało zaklasyfikowanych przez model jako psy, a także ile z nich było poprawnie zaklasyfikowanych. Z Twoich danych wiemy, że 15 psów zostało poprawnie ocenionych jako psy (przykłady prawdziwie pozytywne) i 10 psów zostało błędnie zaklasyfikowanych jako koty (przykłady fałszywie negatywne). Aby obliczyć precyzję, bierzemy liczbę poprawnie zaklasyfikowanych psów (15) i dzielimy ją przez liczbę wszystkich psów, którzy zostali zaklasyfikowani przez model jako psy (15 + 10 = 25). Precyzja wynosi więc 15/25 = 0,6 lub 60%. Warto zauważyć, że precyzja modelu jest ograniczona przez błędy w klasyfikacji psów. Model błędnie zaklasyfikował 10 psów jako koty, co wpłynęło na obniżenie precyzji.
  • 0 Votes
    25 Posts
    43 Views
    B
    Wzór na dokładność to: Dokładność = (poprawne klasyfikacje) / (wszystkie klasyfikacje) lub w inny sposób: Dokładność = (suma przykładów osób chorych ocenionych jako chore i osób zdrowych ocenionych jako zdrowe) / (suma wszystkich przykładów testowych) Przykładem może być tabela poniżej: Prawdziwie pozytywne Prawdziwie negatywne Suma Prawdziwie pozytywne 80 20 100 Prawdziwie negatywne 10 90 100 Suma 90 110 200 W tym przykładzie dokładność wynosi 90/200 = 0,45.
  • 0 Votes
    35 Posts
    47 Views
    B
    W kontekście dostępnym nie ma informacji o pojęciu "swoistości modelu". Jednak, w oparciu o dostępne informacje, można stwierdzić, że niektóre metryki, takie jak dokładność (accuracy), precyzja (precision), czułość (recall) i F-score, mogą być używane do oceny modelu, ale nie ma informacji o pojęciu "swoistości modelu" w tym kontekście.
  • 0 Votes
    17 Posts
    29 Views
    B
    Nie ma informacji w dostępnym kontekście, która mówiłaby o tym, kto wymyślił F-score.
  • 0 Votes
    22 Posts
    21 Views
    S
    poprawny wnik to 100/140
  • 0 Votes
    27 Posts
    30 Views
    B
    Dokładność (accuracy), precyzja (precision) i czułość (recall) to trzy metryki używane do oceny jakości modelu klasyfikacyjnego. Dokładność (accuracy) to stosunek wszystkich poprawnych klasyfikacji do wielkości zbioru testowego. Precyzja (precision) to stosunek liczby przypadków prawdziwie pozytywnych do liczby wszystkich przypadków ocenjonych jako pozytywne. Czułość (recall) to stosunek liczby przypadków prawdziwie pozytywnych do liczby wszystkich przypadków pozytywnych. W tym kontekście, dokładność, precyzja i czułość są używane do oceny jakości modelu klasyfikacyjnego, takiego jak rozpoznawanie kotów i niekotów.
  • 0 Votes
    17 Posts
    12 Views
    B
    Wzór dla F-score jest następujący: F-score = (1 + β^2) * precision * recall / ((β^2 * precision) + recall) lub F-score = (1 + β^2) * TP / ((1 + β^2) * TP + β^2 * FN + FP) gdzie: precision to dokładność (miara, która określa, jak dobrze model rozróżnia pomiędzy danymi, które należą do klasy, a danymi, które nie należą do klasy) recall to czułość (miara, która określa, jak dobrze model rozróżnia pomiędzy danymi, które należą do klasy, a danymi, które nie należą do klasy) TP to liczba prawidłowo sklasyfikowanych danych FN to liczba danych, które zostały nieprawidłowo sklasyfikowane jako dane klasy B FP to liczba danych, które zostały nieprawidłowo sklasyfikowane jako dane klasy A Warto zauważyć, że β to parametr, który określa wagę, jaką przyznajemy czułości w porównaniu z dokładnością. Wartości β = 2 i β = 0,5 są powszechnie używane.
  • 0 Votes
    17 Posts
    21 Views
    B
    Metryka recall i precision są dwiema ważnymi miarami wydajności modelu klasyfikacyjnego. Różnią się one w sposobie obliczania i interpretacji. Metryka recall (czułość) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model. Jest to ułamek wszystkich prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich prawdziwie pozytywnych przypadków w danych. Im wyższa wartość recall, tym lepszy model jest w wykrywaniu prawdziwie pozytywnych przypadków. Metryka precision (precyzja) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich przypadków, które zostały sklasyfikowane jako pozytywne przez model. Im wyższa wartość precision, tym lepszy model jest w unikaniu fałszywie pozytywnych przypadków. Przykładem może być następująca sytuacja: Model klasyfikacyjny został wytrenowany na rozróżnianiu orłów od kaczek. W danych testowych znajduje się 100 orłów i 100 kaczek. Model klasyfikuje 90 orłów jako orły i 10 kaczek jako orły. Model klasyfikuje 5 orłów jako kaczki i 95 kaczek jako kaczki. W tym przypadku: Recall (czułość) modelu wynosi 90/100 = 0,9, ponieważ model wykrył 90 orłów spośród 100. Precision (precyzja) modelu wynosi 90/95 = 0,95, ponieważ model sklasyfikował 90 orłów jako orły spośród 95 przypadków, które sklasyfikował jako orły. W tym przykładzie model ma wysoką wartość recall, co oznacza, że jest dobry w wykrywaniu orłów. Jednak ma również wysoką wartość precision, co oznacza, że jest dobry w unikaniu fałszywie pozytywnych przypadków (kaczek sklasyfikowanych jako orły).